IL RISK MANAGEMENT
NELLE AZIENDE SANITARIE

Marco Silvestrini

Vi proponiamo un estratto della tesi di Marco Silvestrini dal titolo: "Il risk management nelle aziende sanitarie: prescrizioni di sicurezza per un sito di risonanza magnetica". Il lavoro può essere acquistato su Tesionline.

risk management

Grandezza caratteri: piccoli | medi | grandi

Prefazione

Il presente lavoro ha per oggetto il rischio nelle aziende sanitarie e la sua gestione, considerando in particolare le problematiche che risiedono in un sito predisposto per l’utilizzo di apparecchi a risonanza magnetica per diagnostica medica.

Il tema del Risk Management in sanità sta conquistando uno spazio sempre maggiore sia nella pratica di chi ha responsabilità di gestione, sia nelle riflessioni degli studiosi. La struttura ospedaliera, infatti, è un particolare ambiente di lavoro nel quale il personale sanitario e tecnico-amministrativo svolge la propria attività nell’affannosa preoccupazione di soccorrere sollecitamente e professionalmente il malato, utilizzando strutture, impianti, sostanze chimiche, supporti tecnologici e procedure diagnostiche e terapeutiche potenzialmente rischiose per l’operatore ed il paziente.
Pertanto, parlare di “qualità delle cure” oggi significa parlare non solo di efficienza ed efficacia delle prestazioni, ma anche e soprattutto di sicurezza del servizio offerto e di tutti gli operatori.

La recente introduzione in ambito ospedaliero di tecnologie ad alta sofisticazione (RMN, TC, etc.), mira a migliorare l’assistenza e, quindi, la qualità delle prestazioni erogate all’utente/paziente della struttura sanitaria, sia essa pubblica o privata.
Il crescente sviluppo tecnologico degli ultimi decenni ha, infatti, portato alla creazione di sistemi e dispositivi di diagnosi e terapia di comprovata efficacia, di sempre più ridotta invasività e di maggiore accettazione da parte del paziente. Tuttavia a questo importante traguardo tecnologico-assistenziale si sono accompagnate una serie di problematiche nuove in termini di gestione ed utilizzo delle apparecchiature, in particolare per quanto concerne la sicurezza e la gestione del rischio.

Con la legge sulla Sicurezzalo Stato italiano si è dotato di uno strumento legislativo in materia di sicurezza dei lavoratori in ogni ambiente di lavoro che ha recepito alcune direttive europee volte a promuovere un miglioramento delle condizioni di sicurezza e salute sui luoghi di lavoro.

Gli ospedali sono doppiamente interessati dal Decreto legge in quanto nei locali ad uso medico, oltre alla tutela dei lavoratori si aggiunge la necessità di garantire la sicurezza dei pazienti.

E' opinione condivisa che ogni struttura sanitaria debba adottare un Sistema di Gestione della Sicurezza che, partendo da una valutazione iniziale della situazione, adotti una politica finalizzata alla promozione dell’uso sistematico dell’analisi del rischio e del ridisegno dell’organizzazione e, allo stesso tempo, il ricorso alla ricerca, al confronto, alla raccolta e allo studio dei dati allo scopo di progettare, avviare e mantenere processi che aumentino l’efficienza e la qualità delle prestazioni dell’ente, riducendo i costi complessivi legati alla salute e alla sicurezza sul lavoro, compresi i costi derivanti dalla mancanza di sicurezza come, ad esempio, quelli dovuti a cause iatrogene.

Questo approccio integrato al rischio (rischio dell’operatore, del paziente ed aziendale), sviluppato nei paesi anglosassoni, si chiama appunto Risk Management si basa sull’assunto che l’analisi dei rischi di aree critiche deve comprendere gli aspetti legati alla sicurezza, sia dei lavoratori che dei pazienti, e che gli interventi di adeguamento possono produrre utili sinergie in un’ottica integrata di ottimizzazione delle risorse e di efficacia di intervento.

Lo sviluppo della funzione Risk Management nelle Aziende Sanitarie

Nel nostro paese e nel contesto internazionale si assiste oggi ad un rinnovato interesse per il tema della sicurezza e della qualità delle prestazioni sanitarie.
Si tratta di un fenomeno che merita di essere attentamente valutato attraverso un’analisi che affronti la questione a partire dal modo con cui si sono evolute le priorità strategiche dei sistemi sanitari in questo ultimo decennio.

Le prospettive di aumento della produttività e di recupero dell’efficienza, che avevano guidato l’attenzione dei decisori istituzionali e delle aziende dalla fine degli anni Ottanta (in Italia, in particolare, con il processo di aziendalizzazione del Sistema Sanitario Nazionale, SSN), stanno lasciando il posto ai temi legati alla “qualità”, alla ricerca di un equilibrio possibile tra la domanda di cittadini-consumatori sempre più esigenti e dinamiche economico-finanziarie non più affrontabili con misure miopi di mero contenimento o di razionalizzazione della spesa pubblica.

E’ in questo mutato contesto che si inserisce il tema del risk management nelle aziende sanitarie.
Parlare di “qualità delle cure” oggi significa parlare non solo di efficienza ed efficacia delle prestazioni ma anche e soprattutto di sicurezza del servizio offerto.

Il termine “sicurezza” in tutto il mondo imprenditoriale, e non diversamente nelle aziende sanitarie, evoca immediatamente il rispetto di norme, regolamenti e disposizioni legislative come il decreto sulla sicurezza,, spostando l’attenzione del problema sugli aspetti prettamente strutturali e tecnologici o sulla sorveglianza sanitaria degli operatori coinvolti piuttosto che sulla sicurezza del paziente.
Se il paziente che si rivolge alla struttura sanitaria con una domanda di assistenza che migliori la sua condizione di salute, riceve al contrario un danno dall’atto sanitario, si assiste al fallimento non solo della singola prestazione, ma dell’intero sistema che viene meno allo scopo per il quale è stato concepito.

In effetti è ormai tempo di pensare alla sicurezza come ad un requisito del sistema e all’evento avverso come al frutto di un’interazione tra fattori tecnici, organizzativi e di processo piuttosto che alla conseguenza di un singolo errore umano.
Si tratta quindi di promuovere quel cambiamento culturale già iniziato nel mondo anglosassone e che comincia a muovere i primi passi anche in Italia, che consente di superare l’approccio punitivo dell’errore.

E’ molto facile, di fronte a qualcosa che non ha funzionato, limitarsi alla colpevolizzazione dell’operatore direttamente coinvolto, che in realtà è solamente l’ultimo e più debole anello della catena degli eventi che hanno innescato l’errore e conseguentemente il danno.
Al contrario ciò che serve è un sistema che renda possibile la rilevazione di tutti gli errori, anche quelli che non hanno generato un evento avverso, consentendone l’analisi approfondita e la ricerca delle cause, al fine di prevenire il ripetersi delle stesse condizioni di rischio o di limitare il danno quando questo si è ormai verificato.

Progettare sistemi di cura finalizzati alla prevenzione degli errori non è facile. La scarsa visibilità degli errori che nella maggior parte dei casi non vengono segnalati dal professionista frenato dal timore di essere giudicato negativamente dai colleghi e dal timore delle ripercussioni medico - legali è solo uno degli ostacoli al cambiamento.
Per promuovere il cambiamento culturale utile all’avvio di un o sviluppo della funzione Risk Management nelle Aziende Sanitarie sistema di gestione del rischio, è fondamentale una leadership forte che individui come prioritario l’obiettivo di garantire la sicurezza delle prestazioni sanitarie per il paziente, attraverso sistemi di risk management che prevedano, se necessario, anche la profonda revisione e modifica dei processi.

Che cos'è il risk management

Risk Management significa letteralmente “Gestione del Rischio” dove per rischio si intende la probabilità di accadimento di tutti quegli eventi che possono comportare perdite o danni per l’azienda e le persone coinvolte (es. danni alle strutture, danni alle persone fisiche, danni economici o di immagine).

In sintesi il Risk Management (RM) può essere definito come il sistema, fondato su una metodologia logica e sistematica che consente, attraverso step successivi, di identificare, analizzare, valutare, comunicare, eliminare e monitorare i rischi associati a qualsiasi attività, o processo in modo da rendere l’organizzazione capace di minimizzare le perdite e massimizzare le opportunità.

Al fine di tracciare un’evoluzione culturale e concettuale del Risk Management è utile partire dai significati di affidabilità e fidatezza dei sistemi, concetti che nel corso degli anni hanno posto le basi per la nascita e lo sviluppo della gestione del rischio.

La fidatezza dei sistemi è una scienza che si esplicita mediante la determinazione congiunta, in fase di progetto, dei tre requisiti di affidabilità, manutenibilità e sicurezza, e il loro controllo contestuale in fase di gestione.

L’affidabilità, requisito essenziale della fidatezza, ha le sue origini della sua storia nel campo aeronautico e per questo, fin dall’inizio, é associata al requisito della sicurezza.

Prima degli anni ‘40 gli aspetti qualitativi delle tecniche di affidabilità e sicurezza, intuiti sulla base dell'esperienza dai progettisti, furono più il prodotto di un'arte che di una tecnica scientifica; i primi ingegneri ad occuparsi di affidabilità e sicurezza, infatti, si basarono sul principio che “una catena non poteva essere più forte del suo anello più debole”, poiché, certamente, sotto carico si sarebbe spezzata a livello di tale anello.
Tale teoria, enunciata per la prima volta da Pierce, diventò il primo assioma nello studio dell’affidabilità, in cui i sistemi complessi sono considerati come un insieme di catene (componenti) che includono alcune catene più deboli.

La longevità di un oggetto è determinata dalla durata della catena con la vita più breve, ovvero, della catena meno resistente.

Negli anni ’40 le conoscenze sull’affidabilità vennero notevolmente sviluppate per la necessità, in tempo di guerra, di progettare apparecchiature sicure nell’uso e efficaci nell’obiettivo. Dallo studio del missile tedesco V1, Robert Lusser enunciò la prima formula per il calcolo dell’affidabilità in serie, superando la nozione d’anello debole.

Negli USA, nello stesso periodo, l’obiettivo d’avere impianti meglio progettati e controllati, condusse ad importanti sforzi diretti al miglioramento della qualità nel tempo, per determinare significativi allungamenti delle vite utili dei sistemi e dei componenti.

Proprio l’interesse dimostrato verso il miglioramento e il controllo della qualità, anche grazie all’uso sempre più frequente dei metodi probabilistici/previsionali, impresse un progressivo sviluppo all'affidabilità.
La qualità, un tempo considerata solo grado di conformità del prodotto alle specifiche, testata per mezzo di verifiche a posteriori dei difetti, con l’introduzione dell’affidabilità, spostava la sua attenzione al tempo d’utilizzo, piuttosto che al tempo zero, dilatandosi cioè nel tempo.

L’affidabilità determinava la prima tappa evolutiva, dal controllo della qualità “a posteriori” alla creazione della qualità “a priori”, prevista in fase di progetto per mezzo di metodi probabilistici di valutazione dei guasti.

Negli anni ’50, negli USA, l'affidabilità divenne un importante campo di studi anche per l'ingegneria elettronica. La crescente complessità dei sistemi elettronici, specialmente negli armamenti militari, era la principale causa di frequenti guasti per la cui diagnosi e riparazione erano necessari operai altamente specializzati con un aggravio notevole delle spese; quindi, nel 1952, il Dipartimento della Difesa fondò il Comitato Consultivo per l'Affidabilità delle Attrezzature Elettroniche (AGREE), i cui studi dimostrarono che gli equipaggiamenti elettronici erano talmente inaffidabili e difficili da mantenere che, se un componente valeva un dollaro, il costo del suo mantenimento operativo era di due dollari l'anno.
Il comitato AGREE giunse alla conclusione che per rompere la spirale dei costi di mantenimento dovuti alla mancanza d’affidabilità, quest’ultima dovesse diventare una parte del ciclo evolutivo dei componenti elettronici. Si avvertiva la necessità di valutare in qualche modo anche la manutenzione futura, a monte dell’utilizzo, per gestirne la spesa, altrimenti troppo elevata, per mezzo di un aumento dell’affidabilità; inoltre, si iniziava ad intuire la difficoltà di far manutenzione a sistemi complessi, non pensati per prevedere tale operazione; ciò preparerà il campo al nuovo concetto di manutenibilità che nascerà di lì a poco.
Le conclusioni del rapporto AGREE furono pubblicate come norma militare americana, adottate poi anche dalla NASA e da altre industrie ad alta tecnologia, che puntarono alla creazione di componenti di alta qualità e alla sicurezza d’uso. Contemporaneamente l’ergonomia indirizzava i suoi studi sul funzionamento cognitivo umano nelle situazioni di lavoro, focalizzandosi sulla natura e sull’origine dell’errore umano ritenuto responsabile di tanti incidenti.

La linea di ricerca percorsa era basata su una netta distinzione tra “l’errore umano” e “l’errore tecnico”, quindi tra infortunio e guasto.
L’ergonomia imboccò allora la strada dell’imputazione individuale dell’infortunio, che condusse, alla fine degli anni ’60, al tentativo di identificare le “caratteristiche individuali” dei lavoratori implicati negli incidenti: si sarebbe dovuti riuscire così a risalire alle cause individuali dell’infortunio; i risultati, però, portarono solo a generici tratti d’impulsività e distrazione che non rendevano scientificamente valida la ricerca.

Gli anni ‘60 videro la nascita di molte nuove tecniche d’affidabilità, soprattutto nell'industria aeronautica, aerospaziale e nucleare. Furono svolte le prime analisi dettagliate dei guasti di componenti e dei loro effetti sul comportamento del sistema. Importanti matematici come Birnbaum, Barlow, Proschan, Esary e Weibul contribuirono allo sviluppo dell'affidabilità.

Le analisi preventive dei guasti divennero sempre più importanti, specialmente nel campo degli armamenti nucleari, e crebbero in complessità, tanto da richiedere l’uso del metodo dei diagrammi a blocchi dell'affidabilità. Nel 1961, Watson dei Laboratori Telefonici Bell introdusse il concetto d' “albero dei guasti” come metodo per valutare la sicurezza di un sistema progettato per controllare il lancio del missile Minuteman.
Successivamente Hassl, lavorando per Boeing, riutilizzò il concetto e inventò il modo di costruzione dell'albero dei guasti; da allora, la compagnia Boeing ha utilizzato regolarmente tale metodo.

In quegli anni fu inventato, sempre in campo aeronautico, il “Metodo dell’analisi delle modalità di guasto e degli effetti” (FMEA), usato all’inizio solo da Mac Donnell Douglas e introdotto successivamente in tutti i regolamenti dell'industria aeronautica americana.

Nel 1965 il Dipartimento della Difesa pubblicò un nuovo modello (Programmi di Affidabilità per Sistemi ed Impianti), in cui si consigliava l’integrazione di un programma di affidabilità con l’attività di progettazione, sviluppo e produzione: un programma integrato, sviluppato in fase di progetto che fu dunque riconosciuto come l'unico mezzo per determinare ed eliminare i potenziali problemi di affidabilità nella fase di sviluppo.

La progettazione non era più una fase come le altre del ciclo produttivo, ma convogliava e sintetizzava in sé ogni aspetto di ideazione, costruzione, manutenzione, dismissione: con il progetto, dunque, si prevede l’affidabilità di tutto il sistema, sia a monte, durante la fase di costruzione/produzione (qualità e sicurezza delle macchine, dell’organizzazione, del prodotto), sia durante la fase di utilizzo (a valle), quando bisogna evitare qualunque tipo di scadimento della qualità e quindi della sicurezza, pianificando la manutenzione, in modo da ripristinare l’efficienza originaria dell’oggetto e la durata prevista. Negli anni seguenti, questi sforzi portarono ad una significativa riduzione dei costi di manutenzione e ripristino, confermando così l'importanza dei nuovi programmi sull'affidabilità.

Anche l'interesse per la sicurezza crebbe notevolmente, soprattutto nei settori più a rischio, tanto da divenire materia autonoma; ciò è testimoniato dal fatto che, nel 1966, il Dipartimento della Difesa volle che fossero fatti studi sulla sicurezza inerenti a tutte le fasi di sviluppo della propria produzione. Questi criteri (Programmi per la Sicurezza di Sistema per Sistemi ed Attrezzature e sottosistemi Associati: Requisiti) sono stati sistematicamente applicati dal Dipartimento della Difesa dal 1969 in poi.

Contemporaneamente, l'interesse per la sicurezza divenne essenziale nella costruzione di impianti nucleari, per i quali per la prima volta, nella fase progettuale, venivano presi in considerazione i disastri potenziali: gli incidenti erano classificati secondo la loro gravità e frequenza e analizzati per valutarne le possibili conseguenze sull’ambiente.
Grazie alla ricerca nei settori a rischio, la sicurezza si arricchiva di nuovi significati, non essendo più relegata solo all’uso dell’oggetto: si iniziavano a considerare la sicurezza e la salute anche come bisogni inalienabili dell’uomo, messi in pericolo dalla produzione di particolari beni e servizi, considerando, oltre ai classici soggetti attivi della produzione (cliente, fornitore), che in qualche modo se ne avvantaggiavano, anche gli altri interlocutori, i quali subivano le conseguenze di tale produzione, come la collettività, i lavoratori, l’ambiente.

Nella seconda metà degli anni Sessanta fu introdotto il concetto di manutenibilità, un requisito fondamentale insieme all’affidabilità per la durata e sicurezza dei sistemi.
La crescente consapevolezza della vitale importanza di questa nuova disciplina fu ispirata, in primo luogo, dall'innalzamento dei costi annuali di manutenzione (specialmente nell'elettronica) e, in secondo luogo, dai costi di indisponibilità.

All’affidabilità si accostava un requisito ad essa complementare: infatti, se l’affidabilità permetteva di far nascere, al livello di simulazione progettuale, considerazioni rispetto al mantenimento nel tempo delle caratteristiche qualitative e di sicurezza dei componenti del sistema sottoposto alle condizioni d’uso e di esposizione, diventava indispensabile pensare a come riuscire ad attuare tutte quelle operazioni manutentive nel modo più facile, veloce ed efficace possibile.
La manutenibilità era quindi proprietà di progetto e caratteristica preparatoria e facilitante dell’attività manutentiva che aumentava la disponibilità del sistema diminuendo il tempo di ripristino delle funzioni del componente.

Negli anni ’70 gli studi dell’ergonomia, già attivi da un ventennio, determinarono una svolta nella valutazione dell’errore umano, rovesciando i termini di tutto il problema della sicurezza: si passò da una concezione atomistica, per singole parti (l’uomo, la macchina, l’ambiente), ad una concezione relazionale del lavoro.
Si iniziò con il notare che l’errore umano e quello tecnico erano correlati, entrambi risultati di un cattivo funzionamento del sistema. Ciò significa che le varie parti dovevano essere osservate nella loro totalità, come un unico sistema in cui erano importanti non più i singoli elementi, ma le relazioni tra di essi, le “interrelazioni”, le “interfacce” tra uomo-macchina, singolo gruppo, lavoratore-lavoro svolto, uomo-ambiente.

L’ergonomia dei sistemi instaura la concezione preventiva e non più correttiva della sicurezza. La differenza tra le due prospettive consiste in una sostanziale diversità d’approccio al problema della sicurezza: in termini d’infortuni individuali da evitare, da un lato, in termini di funzionamento globale “affidabile” dall’altro. In questa nuova veste la sicurezza, non più definita dalle caratteristiche dell’oggetto, ma dall’organizzazione dei fattori umani e tecnologici con cui si progetta, realizza e mantiene l’oggetto stesso, si trasforma in proprietà del sistema complesso (sistemi socio-tecnico) che si traduce in efficienza organizzativa, cioè nella capacità di persone e mezzi di raggiungere un determinato obiettivo (fissato da progetto), prevedendo qualunque passaggio, razionalizzando tutti quei collegamenti prima casuali.

Si determina il controllo dell’organizzazione attraverso le tecniche previsionali/progettuali derivanti dalla teoria dell’affidabilità come momento di verifica della qualità e della sicurezza del processo organizzativo basato sulla previsione della probabilità d’inefficacia e della probabilità di ripristino dell’efficacia.

Questo nuovo requisito di sicurezza si definisce affidabilità organizzativa intesa come attività di gestione, attuata nel tempo, che si svolge, attraverso le tecniche previsionali-progettuali della teoria dell’affidabilità, come: - previsione della probabilità che il sistema diventi inaffidabile e si verifichi, pertanto, un evento impattivo per la sicurezza; - previsione della probabilità di ripristino dell’affidabilità.

La prima è un’operazione di conoscenza che fornisce il grado d’affidabilità del processo, la seconda un’operazione di decisione che fornisce le azioni preventive volte ad incrementarne l’affidabilità. Si comprese, quindi, che, per raggiungere adeguati livelli di sicurezza, era necessario gestire i rischi dell’organizzazione: erano le premesse per la nascita del Risk Management una metodologia che garantiva l’analisi preventiva dei rischi, la loro valutazione e il loro controllo futuro.

Nel 1975 fu pubblicato lo studio fatto da Rasmussen sulla prima valutazione dei rischi di un impianto nucleare, il quale si occupò dei rischi potenziali delle popolazioni che vivevano nei pressi delle centrali. Furono presi in considerazione molti scenari disastrosi che andavano dal guasto dei componenti di sistema, agli errori d’operatori durante i test e le operazioni di manutenzione e di controllo del reattore. Il rischio fu definito come l'insieme delle possibilità annuali di fatalità nei confronti delle popolazioni vicine dovuto ad un incidente-causa del rilascio di sostanze radioattive.
Molti nuovi metodi affidabilistici furono sviluppati come parte di questo lavoro, incluso il “Metodo dell'albero degli eventi”, per valutare scenari disastrosi. Questa prima analisi dei rischi aveva lo scopo di valutare i rischi per la popolazione e di rassicurare il crescente movimento ambientalista negli USA ma, soprattutto, di definire le reali gerarchie in materia di sicurezza, identificando i punti deboli e quelli forti delle centrali.

Nel 1983 fu scritta e pubblicata, su richiesta delle autorità preposte alla sicurezza, un’impressionante “Guida alla Valutazione Probabilistica dei Rischi (PRA) per gli Impianti ad Energia Nucleare”: l'obiettivo era fornire procedure alle organizzazioni che intendevano portare avanti simili analisi.
La sicurezza diviene punto di raccordo tra le varie anime del sistema socio tecnico, con una metodica specifica di analisi e di valutazione che usa in fase di progetto i metodi affidabilistici e della manutenibilità, per gestire i rischi dell’organizzazione, considerando sia i guasti tecnici, sia gli errori umani, sia comportamenti e scelte sbagliate, ecc.

(L'articolo continua sotto al box in cui ti segnaliamo che alla collana di libri QualitiAmo si è aggiunto un nuovo titolo).

LA COLLANA DEI LIBRI DI QUALITIAMO

"La nuova ISO 9001:2015 per riorganizzare, finalmente, l'azienda per processi" - Si aggiunge alla collana dei libri di QualitiAmo il primo testo che svela i segreti della futura norma.
Dalla teoria alla pratica: il secondo lavoro di Stefania Cordiani e Paolo Ruffatti spiega come migliorare la vostra organizzazione applicando la nuova norma attraverso i suggerimenti del loro primo libro
(Vai all'articolo che descrive il nuovo libro)

"Organizzazione per processi e pensiero snello - Le PMI alla conquista del mercato" - Da una collaborazione nata sulle nostre pagine, un libro per far uscire le PMI dalla crisi.
L’ideatrice di QualitiAmo e una delle sue firme storiche spiegano come usare con efficacia la Qualità.
(Vai all'articolo che descrive il primo libro)

(Vuoi restare aggiornato gratuitamente sulla nuova ISO 9001:2015? Visita ogni giorno la pagina che ti abbiamo linkato.
In calce all'articolo riporteremo quotidianamente un aggiornamento sulla futura norma)

Dall'inizio degli anni ‘70 e per tutti gli anni ‘80 tali metodi furono ampiamente adottati in aree come le industrie petrolifere, chimiche, ferroviarie, automobilistiche, ovvero, in una grande varietà di attività e sistemi aventi strutture tecnologiche ed umane molto diverse tra loro. I criteri probabilistici di affidabilità, manutenibilità e sicurezza venivano sempre più usati per adeguarsi ai regolamenti o come obiettivi auto-imposti dagli stessi staff addetti ai progetti.

Proprio la cultura della sicurezza sviluppatasi in quegli anni ha dato vita ad un nuovo tipo di normativa che fosse da stimolo all’applicazione del Risk Management, come strumento preventivo di gestione dell’organizzazione del sistema socio-tecnico durante l’intero ciclo di vita del manufatto.
L’osservanza delle leggi-quadro si doveva trasformare in qualcosa di più di semplici adempimenti burocratici in fase di progetto (Piano di sicurezza e coordinamento, Piano operativo di sicurezza, Fascicolo dell’opera), determinare un avvicinamento alla cultura della fidatezza che inglobasse, nel progetto, tutte le considerazioni inerenti all’affidabilità, alla manutenibilità, alla sicurezza del manufatto.

Negli ultimi anni lo sviluppo della cultura della sicurezza, intesa come safety life-cicle, cioè la sicurezza ampliata a tutti gli aspetti e gli attori che s’incrociano durante la vita utile del sistema, ha introdotto la necessità della valutazione del rischio considerato come qualunque scadimento della qualità, sia nell’organizzazione, sia nell’oggetto, che possa in qualche modo produrre danni di varia natura, cioè indisponibilità, danni economici, danni a persone o cose, danni all’ambiente, ecc.

La valutazione preventiva consente di gestire i rischi, calibrando le scelte di progetto e pianificando la gestione, attraverso la programmazione del budget e l’individuazione dei tempi e dei modi della manutenzione.
Tale evoluzione ha comportato la possibilità di riflettere sulla necessità di considerare la stretta connessione tra i requisiti descritti, assumendo il processo progettuale come attività strategica per incorporare la qualità del sistema già in fase di progetto.

(Fonte: Tesionline)

PER SAPERNE DI PIU':

La nuova ISO 9004 e il risk managementChe cos'è il risk management?
Risk management: il futuro della Qualità
La sezione dedicata alla gestione del rischio
Risk management: un reale caso di successo
Il diagramma di flusso della FMEA
Il modello giapponese
Il risk management nel futuro dei sistemi di gestione
Nuovi standard sul risk assessment
Piani di riserva per la gestione dei rischi
Analisi e gestione dei rischi


cerca nel sito